Les tats-Unis et le Royaume-Uni, ainsi que des partenaires internationaux de 16 autres pays, ont publi de nouvelles lignes directrices pour le dveloppement de systmes d'IA scuriss


Le Royaume-Uni et les tats-Unis, ainsi que des partenaires internationaux de 16 autres pays, ont publi de nouvelles lignes directrices pour le dveloppement de systmes d'intelligence artificielle (IA) scuriss.

"L'approche privilgie l'appropriation des rsultats en matire de scurit pour les clients, adopte une transparence et une responsabilit radicales et tablit des structures organisationnelles o la conception scurise est une priorit absolue", a dclar l'Agence amricaine de cyberscurit et de scurit des infrastructures (CISA).

L'objectif est d'accrotre les niveaux de cyberscurit de l'IA et de veiller ce que la technologie soit conue, dveloppe et dploye de manire scurise, a ajout le Centre national de cyberscurit (NCSC).

Les lignes directrices s'appuient galement sur les efforts continus du gouvernement amricain pour grer les risques poss par l'IA en veillant ce que les nouveaux outils soient tests de manire adquate avant d'tre rendus publics, ce que des garde-fous soient mis en place pour remdier aux prjudices socitaux, tels que les prjugs et la discrimination, et aux problmes de protection de la vie prive, et ce que des mthodes robustes soient mises en place pour permettre aux consommateurs d'identifier le matriel gnr par l'IA.


Les engagements exigent galement que les entreprises s'engagent faciliter la dcouverte et le signalement par des tiers des vulnrabilits de leurs systmes d'IA par le biais d'un systme de primes la dtection de bogues, afin qu'elles puissent tre trouves et corriges rapidement.

Les dernires lignes directrices "aident les dveloppeurs s'assurer que la cyberscurit est la fois une condition pralable essentielle la scurit des systmes d'IA et qu'elle fait partie intgrante du processus de dveloppement ds le dbut et tout au long, ce que l'on appelle une approche "scurise ds la conception"", a dclar le NCSC.

Cette approche englobe la conception scurise, le dveloppement scuris, le dploiement scuris, ainsi que l'exploitation et la maintenance scurises, couvrant tous les domaines importants du cycle de vie du systme d'IA, et exigeant des organisations qu'elles modlisent les menaces pesant sur leurs systmes et qu'elles protgent leurs chanes d'approvisionnement et leurs infrastructures.

L'objectif, notent les agences, est galement de lutter contre les attaques adverses ciblant les systmes d'IA et d'apprentissage machine (ML) qui visent provoquer un comportement involontaire de diffrentes manires, y compris en affectant la classification d'un modle, en permettant aux utilisateurs d'effectuer des actions non autorises, et en extrayant des informations sensibles.

Il existe de nombreuses faons d'obtenir ces effets, comme les attaques par injection rapide dans le domaine des grands modles de langage (LLM), ou la corruption dlibre des donnes d'apprentissage ou des commentaires des utilisateurs (connue sous le nom d'"empoisonnement des donnes")", a fait remarquer le NCSC.

Source : "Guidelines for secure AI system development", publi par le NCSC, la CISA et d'autres partenaires internationaux

Et vous ?

Quel est votre avis sur le sujet ?

Trouvez-vous cette initiative pertinente et cohrente ?

Voir aussi

Plusieurs dirigeants du monde signent une dclaration reconnaissant la ncessit d'attnuer les risques lis l'IA, mais le document n'est pas juridiquement contraignant et est vivement critiqu

Le Congrs amricain va examiner deux nouveaux projets de loi sur l'intelligence artificielle, afin de rendre l'utilisation de l'IA plus transparente et assurer que les tats-Unis restent comptitifs

L'UE envisagerait des rgles trs strictes pour les chatbots dans le cadre de son projet de loi sur l'IA elle devrait exiger la divulgation de l'utilisation du matriel protg par le droit d'auteur

Les lgislateurs de l'UE progressent dans leurs ngociations cruciales sur les nouvelles rgles en matire d'IA



Source
Catégorie article Sécurité

Ajouter un commentaire

Commentaires

Aucun commentaire n'a été posté pour l'instant.